Meta fa causa alle app di “nudify”, quelle che tolgono i vestiti con l’IA

Meta ha annunciato ieri di voler intraprendere un’azione legale contro Joy Timeline HK Limited, la società con sede a Hong Kong dietro Crush AI, un’applicazione che impiega intelligenza artificiale generativa per creare immagini false di persone reali nude, senza il loro consenso.
Attraverso il sito web di Crush AI è infatti possibile trasformare la foto di una persona reale vestita in un video sintetico che la ritrae nuda o mentre si spoglia, compie atti sessuali espliciti o pose erotiche. Secondo Meta, c’è stata una crescita esponenziale di queste app di nudify, che si sono servite dei canali social di Facebook e Instagram per farsi pubblicità.
Secondo lo studio “Analyzing the AI nudification application ecosystem”, pubblicato nel novembre 2024 dalle dalle università della Florida e di Washington, le app di “nudificazione” basate su intelligenza artificiale costituiscono un ecosistema commerciale vastissimo, aggressivo e non regolamentato.
L’analisi di 20 piattaforme facilmente accessibili online mostra che il 95% di esse è progettato per togliere i vestiti a fotografie femminili, rendendo le persone protagoniste dell’immagine oggetto di contenuti sessuali di ogni genere. Il 45% dei siti consente la generazione di atti sessuali simulati, come penetrazioni o pratiche BDSM.
I servizi sono a pagamento, con un costo medio di 0,31 dollari a immagine, e quasi tutte le piattaforme incentivano l’uso di criptovalute, spesso come unico metodo di pagamento. La cancellazione dell’account è quasi impossibile: solo una piattaforma su 20 la consente. Gli autori avvertono che questi strumenti rappresentano una nuova forma di violenza sessuale digitale e chiedono un intervento normativo urgente.
ilsole24ore